xAI atribuye la obsesión de Grok con el genocidio blanco a una "modificación no autorizada"

xAI culpó a una “modificación no autorizada” por un error en su chatbot Grok impulsado por IA que causó que Grok se refiriera repetidamente al “genocidio blanco en Sudáfrica” cuando se invocaba en ciertos contextos en X.
El miércoles, Grok empezó a responder a docenas de publicaciones en X con información sobre el genocidio blanco en Sudáfrica, incluso a temas no relacionados. Las extrañas respuestas provenían de la cuenta X de Grok, que responde a los usuarios con publicaciones generadas por IA cuando alguien etiqueta a "@grok".
Según una publicación del jueves en la cuenta oficial de xAI, el miércoles por la mañana se realizó un cambio en el mensaje del sistema del bot Grok (las instrucciones de alto nivel que guían su comportamiento) que indicaba a Grok que proporcionara una "respuesta específica" sobre un "tema político". xAI afirma que el ajuste "violó sus políticas internas y valores fundamentales", y que la empresa ha "realizado una investigación exhaustiva".
Queremos informarle sobre un incidente que ocurrió ayer con nuestro bot de respuesta Grok en X. Qué sucedió:
El 14 de mayo, aproximadamente a las 3:15 a. m. PST, se realizó una modificación no autorizada en el mensaje del bot de respuesta de Grok en X. Este cambio, que ordenó a Grok proporcionar...
— xAI (@xai) 16 de mayo de 2025
Es la segunda vez que xAI reconoce públicamente que un cambio no autorizado en el código de Grok provocó que la IA respondiera de manera controvertida.
En febrero, Grok censuró brevemente las menciones poco halagadoras de Donald Trump y Elon Musk, el multimillonario fundador de xAI y propietario de X. Igor Babuschkin, un líder de ingeniería de xAI, dijo que un empleado deshonesto le había ordenado a Grok que ignorara las fuentes que mencionaban que Musk o Trump difundían información errónea, y que xAI revirtió el cambio tan pronto como los usuarios comenzaron a señalarlo.
xAI dijo el jueves que realizará varios cambios para evitar que ocurran incidentes similares en el futuro.
A partir de hoy, xAI publicará las indicaciones del sistema de Grok en GitHub, así como un registro de cambios. La compañía afirma que también implementará controles y medidas adicionales para garantizar que los empleados de xAI no puedan modificar las indicaciones del sistema sin revisarlas y establecerá un equipo de monitoreo 24/7 para responder a incidentes con las respuestas de Grok que no sean detectados por los sistemas automatizados.
Evento Techcrunch
Berkeley, CA | 5 de junio
REGÍSTRATE AHORAA pesar de las frecuentes advertencias de Musk sobre los peligros de una IA sin control , xAI tiene un historial deficiente de seguridad en IA. Un informe reciente reveló que Grok se desnudaba en fotos de mujeres cuando se le pedía. El chatbot también puede ser considerablemente más grosero que IA como Gemini y ChatGPT de Google, profiriendo improperios sin mucha moderación.
Un estudio de SaferAI, una organización sin fines de lucro que busca mejorar la rendición de cuentas de los laboratorios de IA, reveló que xAI tiene una baja calificación en seguridad en comparación con sus pares, debido a sus prácticas de gestión de riesgos muy deficientes . A principios de este mes, xAI incumplió el plazo autoimpuesto para publicar un marco de seguridad de IA finalizado.
techcrunch